Di tendenza: Olio | Oro | BITCOIN | EUR/USD | GBP/USD

Nvidia è in testa al mondo dei chip AI... ma chi può raggiungerla?

Economies.com
2025-11-21 17:59PM UTC

Mercoledì Nvidia ha superato ogni aspettativa, registrando profitti in forte crescita, trainati dalle sue unità di elaborazione grafica (GPU), eccellenti nel supportare i carichi di lavoro dell'intelligenza artificiale. Ma anche altre categorie di chip per l'intelligenza artificiale stanno iniziando a guadagnare terreno.

Tutti i principali fornitori di servizi cloud stanno ora progettando i propri circuiti integrati specifici per le applicazioni (ASIC), dal TPU di Google a Trainium di Amazon, fino ai piani di OpenAI con Broadcom. Questi chip sono più piccoli, più economici, più facili da usare e potrebbero ridurre la dipendenza di queste aziende dalle GPU di Nvidia. Daniel Newman di Futurum Group ha dichiarato alla CNBC di aspettarsi che i chip ASIC "crescano più velocemente del mercato delle GPU nei prossimi anni".

Oltre a GPU e ASIC, esistono i Field-Programmable Gate Array (FPGA), che possono essere riconfigurati dopo la produzione per usi come l'elaborazione del segnale, il networking e l'intelligenza artificiale. Esiste poi un'intera generazione di chip di intelligenza artificiale progettati per funzionare direttamente sui dispositivi anziché tramite il cloud, un segmento guidato da aziende come Qualcomm e Apple.

La CNBC ha parlato con esperti e addetti ai lavori delle principali aziende tecnologiche per analizzare questo panorama affollato e i diversi tipi di chip di intelligenza artificiale.

GPU per l'elaborazione generica

Un tempo le GPU venivano utilizzate principalmente per i videogiochi, ma una volta diventate il motore dell'intelligenza artificiale moderna, hanno trasformato Nvidia nell'azienda pubblica più quotata al mondo. Lo scorso anno, Nvidia ha distribuito circa 6 milioni di unità delle sue GPU "Blackwell" di ultima generazione.

Il passaggio dal gaming all'intelligenza artificiale è iniziato nel 2012, quando i ricercatori hanno addestrato la rete neurale AlexNet utilizzando GPU Nvidia, una svolta che molti considerano la scintilla della moderna rivoluzione dell'intelligenza artificiale. AlexNet ha partecipato a un concorso di riconoscimento delle immagini di alto profilo e si è affidato alle GPU anziché alle CPU, offrendo una precisione sorprendente e un notevole vantaggio competitivo.

La stessa capacità di elaborazione parallela che consente alle GPU di riprodurre grafica realistica le rende ideali anche per l'addestramento di modelli di deep learning, che apprendono dai dati anziché dalla programmazione esplicita.

Oggi, le GPU vengono vendute nei sistemi di data center abbinate alle CPU per eseguire carichi di lavoro di intelligenza artificiale basati sul cloud. Le CPU dispongono di pochi core potenti per attività sequenziali, mentre le GPU hanno migliaia di core più piccoli specializzati in operazioni parallele come la moltiplicazione di matrici.

Grazie alla possibilità di eseguire un numero elevato di operazioni contemporaneamente, le GPU sono ideali sia per l'addestramento che per l'inferenza. L'addestramento insegna ai modelli di intelligenza artificiale a individuare pattern in enormi set di dati; l'inferenza utilizza questi modelli per prendere decisioni su nuove informazioni.

Le GPU rimangono il motore principale per Nvidia e il suo concorrente più vicino, AMD. Il software è un fattore chiave di differenziazione tra le due aziende: Nvidia si affida al suo ecosistema CUDA, mentre AMD offre uno stack in gran parte open source.

Entrambe le aziende vendono GPU cloud a fornitori come Amazon, Microsoft, Google, Oracle e CoreWeave, che poi affittano la potenza di calcolo agli sviluppatori di intelligenza artificiale.

L'accordo da 30 miliardi di dollari di Anthropic con Nvidia e Microsoft, ad esempio, include l'equivalente di 1 gigawatt di capacità di calcolo basata su hardware Nvidia. AMD ha recentemente ottenuto importanti impegni anche da OpenAI e Oracle.

Nvidia vende anche direttamente a governi e aziende di intelligenza artificiale (tra cui almeno 4 milioni di GPU a OpenAI) e a governi stranieri come Corea del Sud, Arabia Saudita e Regno Unito.

L'azienda ha dichiarato alla CNBC che addebita circa 3 milioni di dollari per ogni cabinet server contenente 72 GPU Blackwell e che ne spedisce circa 1.000 ogni settimana.

Dion Harris, direttore senior per l'infrastruttura di intelligenza artificiale di Nvidia, ha affermato di non aver mai immaginato che la domanda sarebbe cresciuta a questo livello. "Quando anni fa abbiamo parlato con le aziende di un sistema a otto GPU, pensavano fosse eccessivo".

ASIC per l'intelligenza artificiale cloud specializzata

L'addestramento basato su GPU ha alimentato la prima ondata di modelli linguistici di grandi dimensioni, ma l'inferenza è diventata sempre più importante con la maturazione dei modelli. L'inferenza può essere eseguita su chip meno flessibili e meno costosi, costruiti specificamente per determinate operazioni matematiche: è qui che entrano in gioco gli ASIC.

Se una GPU è un "coltellino svizzero" in grado di eseguire numerose attività parallele, un ASIC è uno strumento monouso: estremamente veloce ed efficiente, ma vincolato a un solo tipo di operazione una volta prodotto.

"Non è possibile modificare questi chip una volta incisi nel silicio", ha affermato Chris Miller, autore di *Chip War*. "C'è un compromesso tra efficienza e flessibilità".

Le GPU di Nvidia sono sufficientemente versatili da soddisfare innumerevoli esigenze di intelligenza artificiale, ma sono costose (fino a 40.000 dollari l'unità) e difficili da reperire. Le startup si affidano a loro anche perché progettare un ASIC personalizzato può costare decine di milioni.

Tuttavia, i giganti del cloud stanno investendo molto negli ASIC perché promettono grandi risparmi su larga scala.

"Queste aziende vogliono avere un maggiore controllo sui carichi di lavoro che sviluppano", ha affermato Newman. "Ma continueranno a collaborare con Nvidia e AMD: la domanda di elaborazione è enorme".

Google è stata la prima a sviluppare un ASIC AI personalizzato, lanciando la Tensor Processing Unit (TPU) nel 2015. I lavori sono iniziati nel 2006, ma sono diventati urgenti nel 2013, quando Google si è resa conto che l'intelligenza artificiale avrebbe potuto raddoppiare le dimensioni dei suoi data center. Nel 2017, la TPU ha contribuito a rendere possibile l'architettura Transformer, alla base della maggior parte delle moderne AI.

Google ha presentato la TPU di settima generazione a novembre. Anthropic addestrerà il suo modello Claude su un milione di TPU. Alcuni ritengono che le TPU possano competere, o addirittura superare, le prestazioni delle GPU Nvidia.

"Molte persone si aspettano che prima o poi Google renda le TPU disponibili su un numero maggiore di dispositivi", ha affermato Miller.

AWS ha seguito l'esempio con i propri chip dopo aver acquisito Annapurna Labs nel 2015. Ha lanciato Inferentia nel 2018 e Trainium nel 2022, mentre Trainium3 è previsto a breve.

Amazon afferma che Trainium offre un rapporto qualità-prezzo dal 30% al 40% migliore rispetto alle alternative. Anthropic utilizza attualmente mezzo milione di chip Trainium2 per addestrare i suoi modelli.

Per realizzare ASIC personalizzati, i provider cloud si affidano ad aziende come Broadcom e Marvell, che forniscono competenze fondamentali in materia di IP e networking. "Ecco perché Broadcom è diventata uno dei maggiori vincitori del boom dell'intelligenza artificiale", ha affermato Miller.

Broadcom ha contribuito alla progettazione delle TPU di Google e degli acceleratori Meta del 2023 e sta sviluppando chip personalizzati per OpenAI a partire dal 2026.

Microsoft ha sviluppato il Maia 100. Qualcomm ha l'A1200. Intel offre la linea Gaudi. Tesla sta lavorando al suo chip AI5. Startup come Cerebras e Groq stanno promuovendo nuove architetture.

In Cina, Huawei, ByteDance e Alibaba stanno progettando i propri ASIC nonostante le restrizioni all'esportazione imposte dagli Stati Uniti.

Intelligenza artificiale a livello di dispositivo con NPU e FPGA

Una terza categoria di chip di intelligenza artificiale è progettata per eseguire modelli direttamente sui dispositivi anziché tramite il cloud. Questi chip sono in genere integrati in progetti SoC (system-on-a-chip) e sono noti come processori edge-AI. Consentono alle funzionalità di intelligenza artificiale di funzionare localmente ed efficientemente, preservando la durata della batteria e la privacy.

"Sarete in grado di eseguire attività di intelligenza artificiale direttamente sul vostro telefono con una latenza estremamente bassa", ha affermato Saif Khan, ex consulente per l'intelligenza artificiale e la tecnologia della Casa Bianca. "E senza inviare dati a un data center".

Le unità di elaborazione neurale (NPU) rappresentano una parte importante di questa categoria, sviluppate da Qualcomm, Intel, AMD e altri.

Apple non utilizza il termine NPU, ma integra un "motore neurale" nei chip dei suoi Mac serie M e nei chip dei suoi dispositivi mobili serie A.

"Questo approccio si è dimostrato incredibilmente efficace", ha affermato Tim Millet, vicepresidente dell'architettura della piattaforma di Apple. "È veloce e ci offre un maggiore controllo sull'esperienza".

I chip Snapdragon nei telefoni Android, le NPU personalizzate di Samsung e i processori edge-AI di NXP e Nvidia alimentano l'intelligenza artificiale in automobili, robot, fotocamere e dispositivi per la casa intelligente.

"Oggi la maggior parte della spesa è ancora destinata ai data center", ha affermato Miller. "Ma la situazione cambierà con la diffusione dell'intelligenza artificiale nei telefoni, nelle automobili, nei dispositivi indossabili e in tutto il resto".

Gli FPGA offrono ancora più flessibilità perché possono essere riprogrammati dopo la produzione, anche se sono meno efficienti dal punto di vista energetico rispetto agli ASIC o alle NPU.

AMD è diventata il più grande produttore di FPGA dopo aver acquisito Xilinx per 49 miliardi di dollari nel 2022. Intel si classifica al secondo posto dopo aver acquistato Altera per 16,7 miliardi di dollari nel 2015.

In conclusione: Nvidia è ancora molto avanti

Tutte queste aziende produttrici di chip per l'intelligenza artificiale si affidano a un unico produttore: TSMC di Taiwan.

TSMC sta costruendo un enorme sito produttivo in Arizona, dove Apple trasferirà parte della sua produzione. A ottobre, il CEO di Nvidia, Jensen Huang, ha dichiarato che anche lì le GPU Blackwell hanno raggiunto la "piena produzione".

Nonostante il mercato sia sempre più affollato, spodestare Nvidia resta estremamente difficile.

"Nvidia è in questa posizione perché se l'è meritata", ha detto Newman. "Ha dedicato anni a costruire questo ecosistema di sviluppatori, ed è quella che ha vinto".

Wall Street si rialza grazie alle rinnovate speranze di tagli dei tassi da parte della Fed

Economies.com
2025-11-21 16:16PM UTC

Venerdì la maggior parte degli indici azionari statunitensi è salita, in seguito al ritorno dell'ottimismo sui potenziali tagli dei tassi da parte della Federal Reserve.

John Williams, Presidente della Fed di New York, ha dichiarato venerdì di aspettarsi che la banca centrale avrà più margine di manovra per abbassare i tassi di interesse. L'influente policymaker, parlando in Cile, ha osservato che i rischi per il mercato del lavoro ora superano quelli legati all'inflazione, riecheggiando la posizione dei membri più accomodanti del FOMC.

Williams ha dichiarato: "Considero la politica monetaria ancora moderatamente restrittiva, sebbene in misura minore rispetto a prima delle nostre recenti azioni. Continuo quindi a intravedere margini per un ulteriore aggiustamento a breve termine dell'intervallo obiettivo per il tasso sui fondi federali, per avvicinare la politica monetaria alla neutralità e mantenere l'equilibrio tra i nostri due obiettivi".

Nelle contrattazioni, il Dow Jones Industrial Average è salito dello 0,4% (185 punti) a 45.937 alle 16:15 GMT. L'indice più ampio S&P 500 ha guadagnato lo 0,1% (7 punti) a 6.545, mentre il Nasdaq Composite ha guadagnato lo 0,1% (38 punti) a 22.040.

Il palladio estende le perdite a causa del dollaro più forte e dell'incertezza della domanda

Economies.com
2025-11-21 14:54PM UTC

Venerdì i prezzi del palladio hanno continuato a scendere, sotto la pressione del rafforzamento del dollaro statunitense, dell'incertezza sulla domanda e delle aspettative di una maggiore offerta.

Reuters ha riferito, citando fonti informate, che gli Stati Uniti stanno privatamente spingendo l'Ucraina ad accettare un accordo di cessate il fuoco con la Russia. Un simile sviluppo aumenterebbe probabilmente l'offerta globale di metalli industriali, con l'allentamento delle sanzioni contro la Russia, uno dei maggiori esportatori di palladio al mondo.

Secondo Capital.com, i prezzi del palladio sono aumentati di circa il 26% dall'inizio di ottobre, raggiungendo circa 1.500 dollari l'oncia. L'impennata è avvenuta parallelamente ai guadagni del mercato del platino e al più ampio allentamento delle condizioni finanziarie globali.

Anche le scommesse sui tagli dei tassi negli Stati Uniti e la precedente debolezza del dollaro hanno sostenuto il palladio nell'ambito del cosiddetto rally "oro + liquidità" che ha fatto salire i metalli preziosi nelle ultime settimane.

Il palladio viene utilizzato quasi esclusivamente nei convertitori catalitici dei motori a benzina, il che significa che qualsiasi volatilità dei prezzi influisce direttamente sulle strutture dei costi per le case automobilistiche e i produttori di componenti elettronici statunitensi.

L'analisi tecnica di Monex indica una resistenza tra 1.500 e 1.520 dollari l'oncia, con aspettative di un trend rialzista complessivo, ma con scambi ancora instabili. Gli analisti di CPM Group hanno osservato che la recente forza del palladio è "strettamente legata alla performance del platino", avvertendo al contempo che un indebolimento del mercato del lavoro statunitense e un'inflazione persistente potrebbero pesare sulla domanda.

Nonostante la tregua commerciale tra Stati Uniti e Cina recentemente annunciata, i commenti dei funzionari americani suggeriscono che le tensioni rimangono elevate. Il Segretario al Tesoro statunitense ha affermato che la Cina rimane un partner commerciale inaffidabile, mentre il Presidente Donald Trump ha ribadito che la sua amministrazione non consentirà l'esportazione di chip Nvidia avanzati in Cina o in altri Paesi.

L'indice del dollaro statunitense è salito dello 0,1% a 100,2 alle 14:43 GMT, scambiando tra un massimo di 100,4 e un minimo di 99,9.

I future sul palladio con consegna a dicembre sono scesi dello 0,9% a 1.374 dollari l'oncia alle 14:43 GMT.

Bitcoin scende sotto gli 82.000 dollari, toccando i minimi di metà aprile

Economies.com
2025-11-21 13:49PM UTC

Venerdì mattina, il Bitcoin è sceso brevemente a 81.871,19 dollari, prima di stabilizzarsi vicino a 82.460 dollari, in calo di circa il 10,2% nelle ultime 24 ore.

Dopo quasi un mese di vendite persistenti, Bitcoin è ora scambiato a un prezzo inferiore del 10% rispetto al livello di inizio anno, avendo cancellato la maggior parte dei guadagni ottenuti dopo la vittoria elettorale di Donald Trump lo scorso anno.

L'ultima volta che Bitcoin è sceso sotto gli 82.000 dollari è stato ad aprile, quando è sceso a 75.000 dollari, durante una forte svendita del mercato innescata dall'annuncio di Trump di dazi doganali ingenti durante l'evento del "Giorno della Liberazione".

Sulla base dei dati di Deribit, la borsa di opzioni e futures di proprietà di Coinbase, CoinDesk ha segnalato che i trader si stanno posizionando per un ulteriore ribasso.

Ethereum, la seconda criptovaluta per valore di mercato, è scesa sotto i 2.740 dollari, in calo di oltre il 9,6% in 24 ore. Anche altri token importanti hanno subito forti pressioni, con XRP, BNB e SOL in calo rispettivamente del 9,1%, 8,4% e 10,6%. Dogecoin, la moneta meme più grande, ha perso il 10,3% nello stesso periodo.

Dopo aver raggiunto nuovi massimi storici all'inizio del mese scorso, il mercato delle criptovalute ha subito un calo costante a seguito di un crollo senza precedenti in un solo giorno il 10 ottobre, quando 19,37 miliardi di dollari di posizioni con leva finanziaria sono stati liquidati in 24 ore. L'evento è stato innescato dall'annuncio di Trump di un ulteriore dazio del 100% sulle importazioni cinesi, una decisione poi ritirata. Anche gli asset digitali sono stati colpiti da una più ampia volatilità del mercato negli ultimi giorni, con oltre 2,2 miliardi di dollari liquidati in 24 ore, secondo CoinGlass.

Secondo CoinGecko, il valore di mercato totale di tutte le criptovalute ammonta ora a 2,92 trilioni di dollari, con un calo del 33% rispetto al picco di circa 4,38 trilioni di dollari raggiunto all'inizio di ottobre. Dall'inizio di questo mese, la capitalizzazione di mercato di Bitcoin è scesa di circa il 25%, segnando il calo mensile più ripido dal crollo delle criptovalute del 2022, secondo Bloomberg.

Le azioni di Strategy (ex MicroStrategy), ampiamente considerate un indicatore di Bitcoin per via delle loro ingenti partecipazioni, sono scese del 2,44% nelle contrattazioni pre-mercato di venerdì, dopo essere scese dell'11% nell'ultima settimana e del 41% negli ultimi 30 giorni. La società detiene attualmente 649.870 BTC a un prezzo medio di acquisto di 74.430 dollari.

In una nota di inizio settimana, gli analisti di JPMorgan hanno avvertito che Strategy rischia di essere esclusa dai principali indici come il Nasdaq 100 e l'MSCI USA. Tale esclusione potrebbe causare ulteriori ribassi del titolo e potenzialmente pesare sui mercati delle criptovalute se la società fosse costretta a vendere parte delle sue partecipazioni in Bitcoin.